在不忘记以前的任务的情况下不断获得新知识的能力仍然是计算机视觉系统的具有挑战性问题。标准的持续学习基准专注于在离线设置中从静态IID图像学习。在这里,我们研究了一个更具挑战性和现实的在线持续学习问题,称为在线流学习。像人类一样,一些AI代理必须从连续的不重复数据流逐步学习。我们提出了一种新颖的模型,假设驱动的增强存储器网络(HAMN),其有效地使用“假设”的增强内存矩阵来巩固先前的知识,并重播重建的图像特征以避免灾难性的遗忘。与像素级和生成的重播方法相比,Hamn的优点是两倍。首先,基于假设的知识合并避免了图像像素空间中的冗余信息,并使内存使用更有效。其次,增强记忆中的假设可以重新用于学习新任务,提高泛化和转移学习能力。鉴于视频流缺乏在线增量类学习数据集,我们介绍并调整两个额外的视频数据集,Toybox和Ilab,用于在线流学习。我们还在Core50和在线CIFAR100数据集上评估我们的方法。我们的方法显着优于所有最先进的方法,同时提供更有效的内存使用情况。所有源代码和数据都在https://github.com/kreimanlab/augmem公开使用
translated by 谷歌翻译